Ollama 用户使用示例
Ollama 是一个本地运行大模型的平台,支持多种模型(如 Llama、Mistral、Deepseek 等),用于自然语言生成、聊天和对话等任务。
🚀 常用命令
命令 | 说明 |
---|---|
ollama pull <model> | 下载模型 |
ollama run <model> | 运行模型 |
ollama list | 查看本地可用模型 |
ollama chat | 启动交互式对话 |
ollama help | 查看帮助 |
📦 下载并运行模型
# 下载 llama2 模型
ollama pull llama2
# 单次运行
ollama run llama2
# 交互式对话
ollama chat
🧩 列出本地模型
ollama list
示例输出:
NAME SIZE
llama2 4.2G
mistral 4.5G
deepseek 13G
🗂️ 模型存储位置
模型默认存储在 ~/.ollama
(可用环境变量 OLLAMA_MODELS_PATH
自定义)。
📝 配置示例
default_model: llama2
use_gpu: true